موریس ۲؛ کرم هوش مصنوعی که رایانه‌ها را آلوده و داده‌ها را سرقت می‌کند

پژوهشگران هشدار می‌دهند که موریس ۲ نماینده نسل جدید «بدافزار صفر کلیک» است

تصویر فردی که احتمالا اطلاعاتش هک شده است‌ــ Canva

پژوهشگران امنیتی یک کرم خودهمتاساز هوش مصنوعی ساخته‌اند که قادر است با نفوذ به ایمیل‌ افراد، بدافزار پخش کند و داده‌ها را بدزدد.

این کرم رایانه‌ای با توجه به [نام] نخستین کرم رایانه‌ای که گروه بین‌المللی آمریکایی و اسرائیلی به قصد برجسته کردن خطرهای مرتبط با هوش مصنوعی مولد (GenAI) در سال ۱۹۸۸ ساخته بود، موریس ۲ (Morris II) نام گرفت.

این کرم طراحی‌ شده است تا برنامه‌های کاربردی مجهز به هوش مصنوعی را که از ابزارهای پرطرفداری مانند جمنای (Gemini) گوگل و چت جی‌پی‌تی (ChatGPT) اوپن ای‌آی استفاده می‌کنند، هدف قرار بدهد. این کرم تاکنون برای حمله به دستیارهای ایمیل مجهز به هوش مصنوعی مولد به منظور سرقت اطلاعات شخصی و راه‌اندازی کارزارهای ارسال هرزنامه (spam) آزمایش شده است.

پژوهشگران هشدار دادند این کرم نشان‌دهنده نسل جدید «بدافزار صفر [بدون] کلیک» است، چرا که لازم نیست قربانی روی چیزی کلیک کند یا حتی آن را تکثیر کند تا فعالیت مخرب فعال شود. بلکه با عملکرد خودکار ابزار هوش مصنوعی مولد انجام می‌شود.

پژوهشگران نوشتند: «این مطالعه نشان می‌دهد که مهاجمان می‌توانند چنین دستوراتی را به‌عنوان ورودی‌ به مدل‌های هوش مصنوعی مولد بدهند تا مدل را وادار ‌کنند این ورودی را به‌منزله خروجی (تکثیر) تکرار و در فعالیت‌های مخرب (بار محاسباتی/payload) شرکت کند.»   

«افزون بر این، ورودی‌ها این عامل [نرم‌افزار یا دستگاه] را وادار می‌کنند با بهره‌برداری از ارتباط درونی اکوسیستم هوش مصنوعی مولد، آن‌ها را به عوامل جدید تحویل بدهد (تکثیر کند).»

Read More

This section contains relevant reference points, placed in (Inner related node field)

این پژوهش در مطالعه‌ای با عنوان «کامپرومایزد (ComPromptMized): پخش کردن کرم‌های صفرکلیک که برنامه‌های کاربردی مبتنی بر هوش مصنوعی مولد را هدف قرار می‌دهد» با جزئیات شرح داده شده است.

پژوهشگران امنیتی از زمان آغاز به کار چت جی‌پی‌تی در سال ۲۰۲۲ به احتمال استفاده هکرها و مجرمان سایبری از برخی عناصر هوش مصنوعی مولد برای حمله اشاره کرده‌ بودند.

قابلیت این فناوری برای تقلید واقع‌گرایانه از متن تولیدی انسان موجب می‌شود افراد غیربومی بتوانند برای تولید ایمیل و متن‌های جعلی متقاعدکننده، از آن استفاده کنند.

شرکت امنیت سایبری کرادسترایک (CrowdStrike) در گزارش سالانه‌ «تهدید جهانی» (Global Threat Report) خود که ماه گذشته منتشر شد، هشدار داد پژوهشگران فعالانی رخنه‌گر [هک‌تیویست] و فعالانی دولتی را مشاهده کرده‌اند که با ابزارهایی مانند چت جی‌پی‌تی آزمایش می‌کنند.

یک نماینده شرکت در ایمیلی به ایندیپندنت نوشت: «هوش مصنوعی مولد [می‌تواند] حملات را عمومی‌سازی و سد ورود عملیات‌های پیچیده‌تر را کوتاه‌تر کند.» احتمالا در سال ۲۰۲۴ از هوش مصنوعی مولد برای فعالیت‌های سایبری استفاده خواهد شد، چون محبوبیت این فناوری همچنان رو به افزایش است.»

© The Independent

بیشتر از تکنولوژی